Felice Pantaleo, Dissertation, Fachbereich Physik der Universität Hamburg, 2017 :

"New Track Seeding Techniques for the CMS Experiment"



Summary

Kurzfassung

Das CMS-Experiment repräsentiert, zusammen mit dem ATLAS-Experiment, das aktuelle Forschungsprogramm am weltweit leistungsfähigsten Teilchenbeschleuniger, dem Large Hadron Collider (LHC) am CERN in Genf, Schweiz. Die beiden Allzweck- Experimente untersuchen die Produktion von Teilchen in Proton-Proton-Kollisionen, um die grundlegenden Kräfte in der Natur besser zu verstehen. Im Jahr 2012 gelang es ihnen, das Higgs Boson, das letzte fundamentale, vom Standardmodell vorhergesagte Teilchen nachzuweisen. Beide Experimente verwenden eine komplexe Zusammenstellung von Siliziumspurdetektor, elektromagnetischen und hadronischen Kalorimetern und Muon- Detektoren in starken Magnetfeldern, um die produzierten Teilchen und ihre individuellen Impulse und / oder Energien aufzuzeichnen. Seit 2017, während der Umbauten der CMS Phase-1 und Phase-2, stellt die erhöhte Intensität des Beschleunigers, mit der damit verbundenen erhöhten Anzahl gleichzeitiger Proton-Proton-Kollisionen (“Pile-up”), eine für das CMS Experiment bedeutende neue Herausforderung dar. Die Rekonstruktion der Spuren der geladenen Teilchen, die in den Siliziumpixel- und Siliz- iumstreifendetektoren aufgezeichnet werden, ist eine der wichtigsten Komponenten der Interpretation der Detektorinformation einer Proton-Proton-Kollision. Sie liefert eine präzise Messung der Impulse der geladenen Teilchen (Myonen, Elektronen und geladene Hadronen), die Identifizierung von Wechselwirkungspunkten der Proton-Proton-Kollision (primärer Wechselwirkungspunkt) und Zerfallspunkte von Teilchen mit signifikanten Lebensdauern (sekundäre Wechselwirkungspunkte). Die auf Grund der wachsenden Zahl von gleichzeitigen Proton-Proton-Kollisionen zunehmende Komplexität der Ereignisse macht die Spurrekonstruktion besonders anspruchsvoll. Die Algorithmen müssen viele Kombinationen untersuchen, um die Signale, die von demselben Teilchen im Detektor zurückgelassen werden, korrekt zu Spuren zu verbinden. Die Notwendigkeit der signifikanten Verringerung der 40 MHz-Datenrate, die durch Proton-Proton-Kollisionen an die Detektoren geliefert wurde, unter gleichzeitiger Beibehal- tung jener Ereignisse, die für die Suche nach neuen physikalischen Phänomenen potentiell interessant sind, führte zur Untersuchung von modernen Mehr-Kern Rechnerarchitekturen für die Erweiterung der vorhandenen Recheninfrastruktur, die für die Ereignisauswahl verwendet wird, der so genannte “High-Level Trigger” (HLT). Das Ziel des HLT ist es, einen bestimmten Satz von Auswahlalgorithmen anzuwenden und idealerweise nur die Ereignisse mit dem interessantesten Physikinhalt zu akzeptieren. Um die eingehende Ereignisrate zu bewältigen, muss die Rekonstruktion eines einzelnen Ereignisses im HLT durchschnittlich in 220 ms durchgeführt werden. In Kapitel 2 dieser Arbeit wird das CMS-Experiment, in dessen Rahmen diese Arbeit durchgeführt wurde, vorgestellt. Das Spurrekonstruktionsproblem und seine Anwendung in den CMS Online- und Offline- Umgebungen wird in Kapitel 3 beschrieben. Insbesondere werden die Auswirkung des Umbaus des Pixeldetektors auf die Spurrekonstruktion in diesem Kapitel beschrieben. Heterogenes Parallelrechnen wird in Kapitel 4 beschrieben. Es konzentriert sich auf die Konzepte, die zur Entwicklung der parallelen Algorithmen verwendet werden, die auf den Grafikeinheiten (“Graphics Processing Units”, GPUs) laufen. GPUs sind massiv parallele Rechnerarchitekturen, die mit Erweiterungen der Standard-C und -C++ Sprachen programmiert werden können. Ihre Parallelität kann genutzt werden, um viele mögliche Spuren gleichzeitig zu erforschen und damit die Zeit zu reduzieren, die mit der Spurrekonstruktion in jedem Ereignis verbracht wird. Kapitel 5 konzentriert sich auf die Entwicklung eines neuen, parallelen Algorithmus (“Hit- Chain Maker”) zum Finden der Startpunkte der Teilchenspuren, der auf den Konzepten von Zellulären Automaten basiert, sowie eine schnelle, “nächster-Nachbar” Datenstruktur (“FKDtree”). Die Ergebnisse der Einbindung des Hit-Chain Maker, der auf GPUs innerhalb des Spurfind- ungsprogramms des CMS-Software-Frameworks läuft, werden in Kapitel 6 diskutiert, sowohl aus der Sicht der Rechenleistung als auch der des Einflusses auf die Physik- Resultate. Die Integration einer traditionellen C++ -Version des Hit-Chain Makers wird ebenfalls in diesem Kapitel besprochen. Die traditionelle Version dieses innovativen Algorithmus ist durchschnittlich drei- bis viermal schneller als die bestehende Implementierung. Sie ist auch robuster in Bezug auf die erhöhte Anzahl gleichzeitiger Proton-Proton-Kollisionen. Die in dieser Arbeit entwickelten Algorithmen zur Spurrekonstruktion führen zum ersten Mal Konzepte zur Nutzung paralleler Rechnerarchitekturen im CMS-Experiment ein. Diese neuen Algorith- men haben die bisherigen Algorithmen zur Spurrekonstruktion sowohl im HLT als auch in der Offline-Spurrekonstruktion ersetzt, da sie in allen Belangen deutlich leistungsfähiger sind.

Titel

Kurzfassung

Summary

The CMS experiment, together with the ATLAS experiment, represents the current program on the Energy Frontier at the Large Hadron Collider at CERN in Geneva, Switzerland. The two general purpose experiments study the production of particles in proton-proton interactions, aiming to better understand the fundamental forces in nature. In 2012 they succeeded in finding the Higgs particle, the last fundamental particle predicted by the Standard Model of particle interactions. Both experiments employ a complex setup of tracking, electromagnetic and hadronic calorimeter, and muon detectors inside a strong magnetic field to record the produced particles and their individual momentum and/or energy. Starting from 2017, during CMS Phase-1 and 2, the increased accelerator luminosity with the consequently increased number of simultaneous proton-proton collisions (pile-up) will pose significant new challenges for the CMS experiment. The reconstruction of the trajectories of charged particles recorded in the silicon pixel and silicon strip detectors is one of the most important components in the interpretation of the detector information of a proton-proton collision. It provides a precise measurement of the momentum of charged particles (muons, electrons and charged hadrons), the identification of interaction points of the proton-proton collision (primary vertex) and decay points of particles with significant lifetimes (secondary vertices). The increasing complexity of events, due to the growing number of simultaneous proton- proton collisions, will make track reconstruction especially challenging. In fact, algorithms have to explore many combinations before being able to connect traces left by the same particle in the detector. The quest of significantly reducing the 40 MHz data rate delivered by proton-proton collisions to the detectors, together with the retention of those events which are potentially interesting for searches of new physics phenomena, led to the evaluation of modern multi-cores and many-cores computer architectures for the enhancement of the existing computing infrastructure used for the event selection, i.e. the High-Level Trigger (HLT). The objective of the HLT is to apply a specific set of physics selection algorithms and to accept the events with the most interesting physics content. To cope with the incoming event rate, the online reconstruction of a single event for the HLT has to be done within 220 ms on average. In Chapter 2 of this thesis, the CMS experiment and its experimental apparatus, in the context of which this work was carried out, are presented. The track reconstruction problem and its application in the CMS online and offline environments is described in Chapter 3. In particular, the implications of the upgrade of the Pixel Detector on track reconstruction are described in this Chapter. Heterogeneous parallel computing is described in Chapter 4, focusing on the concepts used to develop the parallel algorithms running on Graphics Processing Units (GPUs). GPUs are massively parallel computer architectures that can be programmed using extensions to the standard C and C++ languages. Their parallelism can be exploited to explore many possible tracks at the same time, hence reducing the time spent in track reconstruction in each event. Chapter 5 focuses on the development of a parallel algorithm, the Hit-Chain Maker based on the concepts of Cellular Automata and a fast nearest neighbor data structure, namely FKDtree, for track seeding targeted for GPUs. The results of the integration of the Hit-Chain Maker running on GPUs in the CMS track seeding software framework are discussed in Chapter 6, both from the physics and from the computing performance point of view. The integration of a traditional C++ version of the Hit-Chain Maker is discussed in this chapter. The traditional version of this innovative algorithm is on average three to four times faster than the existing implementation. It is also more robust with respect to growing pile-up conditions. These innovative algorithms for track reconstruction use for the first time concepts of parallel computing in the CMS experiment. As these algorithms result in a significant improvement both, in physics and computing performance, they have replaced the previous ones for event selection at the HLT as well as in offline track reconstruction.